Quand j’ai d’abord été chargé d’intégrer l’IA générative dans la plate-forme IVR de Viamo, servant des millions de personnes à travers l’Afrique et les marchés émergents d’Asie, il ne m’a pas fallu longtemps pour reconnaître que nous ne pouvions pas simplement attacher une interface de chat et l’appeler un jour, autant que cela simplifierait certains de nos défis techniques et de développement. Ce projet m’a appris une leçon sur la conception pour l’IA que je pense que tous les concepteurs devraient apprendre : la conception pour l’IA agent n’est pas sur le fait de la rendre chat-friendly, mais sur la conception de systèmes intelligents qui peuvent fonctionner de manière fiable, transparente et prévisible à l’intérieur des opérations que les gens font déjà confiance. Le défaut mortel du chat-first thinking Il y a un paradigme dangereux qui a été enraciné dans cette industrie en raison de son obsession avec les interfaces de chat sur les produits d'IA, et c'est que tout le monde essaie de construire un "ChatGPT pour Y".Personne ne s'arrête et dit: "Eh bien, en fait, juste parce que nous pouvons construire cela et que le chat en fait partie, ce qui n'a vraiment rien à voir avec la question de savoir si l'interaction de chat est vraiment ce dont nous avons besoin à ce sujet." Cela n'est pas nécessairement vrai. Chat est parfait pour l'exploration ouverte et les tâches créatives qui impliquent des voyages autant qu'ils impliquent des destinations. Mais la plupart des tâches commerciales exigent l'exactitude, l'auditabilité et la répétabilité. Lors de la conception de l'interface fournisseur pour Waypoint Commodities, un système qui traite des engrais et des transactions de commerce chimiques d'un million de dollars, les utilisateurs n'ont pas besoin d'une interface de chat conviviale qui pourrait faciliter des conversations exploratoires sur leurs transactions. Ils ont demandé des interfaces qui permettaient aux systèmes d'IA de mettre en évidence les erreurs, d'identifier les itinéraires optimaux et de mettre en évidence les préoccup Le principal problème avec l’IA centrée sur le chat est qu’elle permet de prendre des décisions sous une façade de conversation. Les utilisateurs ne peuvent pas facilement vérifier quelles informations ont été utilisées, ce qui a été appliqué et ce qui a été exploré comme option alternative. Bien sûr, cela est acceptable pour les interrogatoires à faible taux d’intérêt, mais désastreux pour les choix consécutifs. Lors de la conception de notre système de surveillance des expéditions qui a suivi les commandes tout au long de l’exécution, notre projet Waypoint était confronté à un défi qui exigeait que les utilisateurs soient assurés que les messages d’IA sur les retards potentiels ou les fluctuations du marché ne reposaient pas sur des observations fictives mais sur des faits réels explorés et Les systèmes multi-agents nécessitent des interfaces multi-modales Mais ensuite, un changement de paradigme s’est produit dans ma pensée alors que je n’ai cessé de concevoir qu’un seul modèle d’IA et que je me suis concentré sur la conception d’environnements composés de plusieurs entités spécialisées de l’IA opérant ensemble en tant que système. Cela signifiait que nous devions abandonner complètement le paradigme d'un système de chat à une fenêtre. Au lieu de cela, nous avons construit une interface à plusieurs fenêtres à travers laquelle plusieurs méthodes d'interaction pouvaient être utilisées simultanément. Les faits rapides obtiendraient des réponses immédiates via la sortie vocale d'IA. La résolution de problèmes impliquerait une interaction guidée à travers laquelle l'IA répondra aux questions préliminaires avant de rediriger l'utilisateur vers un système expert. Les utilisateurs recherchant des informations sur les installations gouvernementales obtiendraient des réponses formatées qui citeraient des sources en conséquence. Toutes ces méthodes d'interaction auraient des signaux visuels et audio distincts qui construiraient les attentes des utilisateurs en cons Ces résultats ont prouvé que cette stratégie était valable, et nous avons connu une précision de réponse améliorée de plus de trente pour cent et des niveaux d’engagement accru de l’utilisateur. Plus significativement, les niveaux d’abandon de l’utilisateur ont diminué de vingt pour cent lorsque les utilisateurs ont cessé de quitter les conversations en raison de la frustration des incohérences des attentes. Conception pour la vérification, pas seulement l'automatisation L’un des principes les plus importants de la conception d’agent UX que je soutiens est que « l’automatisation sans vérification » n’est que « la dette technique masquée en tant qu’IA ».Il devrait y avoir un « escape hatch » fourni aux côtés de chaque « agent » d’IA utilisé dans un système, permettant aux « utilisateurs de valider leur raisonnement » et de « surcharger sa décision » comme et quand nécessaire, « non pas parce qu’on manque de confiance » dans les « capacités » d’IA, mais parce qu’on « respecte le fait » que « les utilisateurs ont la responsabilité finale » lorsqu’il s’agit d’environnements réglementés ou de transactions à haute valeur. Lorsque j’étais responsable de la conception du tableau de bord administrateur pour l’embarquement de nouveaux utilisateurs chez Waypoint, nous avons eu un cas typique d’un projet d’automatisation, le genre qui permettrait à l’IA de traiter les documents d’incorporation, d’abstraire les informations essentielles et de peupler automatiquement les profils d’utilisateur, réduisant ainsi l’embarquement des utilisateurs de plusieurs heures à quelques minutes. Bien sûr, nous avons compris que les inexactitudes pourraient potentiellement conduire une entreprise à un cas de non-conformité ou, pire, à créer des profils d’utilisateur frauduleux. Dans notre interface, nous avons mis en place le système suivant pour indiquer les niveaux de confiance de l’IA pour chaque champ extrait : Les champs qui avaient des niveaux élevés de précision avaient une couleur de texte noire et des marques vertes. La précision moyenne était d'une couleur orange et un symbole neutre était utilisé. Les champs qui avaient une faible précision ou des informations manquantes avaient une couleur rouge et un symbole d'avertissement. Pour identifier les erreurs que les systèmes d’IA avaient manquées, trente secondes par profil était suffisant pour les administrateurs, car ils avaient assez de contexte à travers ce système. Mais le résultat était clair: nous avons obtenu une réduction du temps d'embarquement de quarante pour cent par rapport aux méthodes entièrement manuelles et une plus grande précision que les approches humaines ou d'IA seules.Mais plus significativement, le personnel d'administration a fait confiance à ce système parce qu'ils pouvaient effectivement suivre sa logique.Si il y avait une erreur de la part de l'IA, cela a été indiqué assez facilement à travers la page de vérification, et cela a aidé à construire cette confiance importante qui nous a permis de déployer avec succès d'autres fonctionnalités d'IA plus tard. Découverte progressive des capacités des agents Un autre domaine subtile mais essentiel de l'UX agent avec lequel la plupart des concepteurs luttent est de fournir aux utilisateurs des informations sur ce que leurs agents peuvent et ne peuvent pas accomplir sans les surcharger avec les possibilités et les applications potentielles de ces capacités. Cela est particulièrement vrai pour les systèmes qui appliquent l'IA générative, et comme nous avons lutté au travail à FlexiSAF Edusoft, où j'ai développé ces systèmes, ils ont des applications qui varient largement mais sont imprévisibles à travers différentes tâches ou activités. Notre mise en œuvre a fourni des indices de capacité basés sur l’interaction, ce qui signifie que lorsqu’on a utilisé le système, on leur fournirait des exemples de questions auxquelles l’IA était forte à répondre par rapport aux questions auxquelles les personnes des ressources humaines de l’institution pourraient répondre de manière plus appropriée, ce qui signifie que lorsque l’utilisateur taperait des questions sur les délais de candidature, ils verraient des exemples de questions auxquelles l’IA était forte à répondre, comme « Quand est la date limite pour les applications d’ingénierie ? » au lieu de questions auxquelles ils pourraient répondre plus efficacement, par exemple, « Puis-je être dispensé du paiement des frais de candidature ? » En outre, nous avons activé un cycle de rétroaction à travers lequel les utilisateurs pouvaient exprimer si leur question avait été entièrement répondu par une réponse d'IA ou non. Ce n'était pas seulement pour améliorer le modèle, mais il a activé une fonctionnalité UX à travers laquelle les utilisateurs pouvaient exprimer qu'ils avaient besoin d'escalade de leur problème et qu'ils avaient été laissés coincés par un système d'IA. Les ressources pertinentes seraient fournies par ce système, et, sinon, ils seraient également connectés à des ressources humaines, entraînant ainsi une diminution du billet de support mais sans sacrifier la satisfaction de l'utilisateur, car les gens auraient le sentiment qu'ils avaient été écoutés et qu'ils n'avaient pas été laiss La transparence et son utilité en tant que facteur de confiance La confiance, bien sûr, n’est pas établie par des algorithmes d’IA améliorés, mais par une conception transparente du système qui permet à un utilisateur de voir ce que le système sait, pourquoi il a tiré ses conclusions et où se trouvent ses limites. eHealth Africa, notre projet impliquant la logistique et le stockage des données des chaînes d’approvisionnement dans le secteur médical, a fait de ce projet l’un de ses non négociables : « Si les agents informatiques de l’IA prédisaient le moment des expéditions de vaccins ou indiquaient des itinéraires optimaux pour la livraison, ces justifications devaient être explicables, car les décideurs humains décideraient si les cliniques rurales recevaient des marchandises qui sauvaient la vie à temps. Pour y remédier, nous avons construit ce que j’appelle des « panneaux de raisonnement » qui fournissaient des résultats aux côtés des suggestions d’IA. Ces panneaux de raisonnement n’affichaient pas les détails du modèle de ses calculs, seulement des informations sur la raison pour laquelle il a atteint ses recommandations, y compris les conditions routières, les délais de livraison antérieurs pour cette route, le temps et la capacité de transport disponible. Les panneaux de raisonnement ont permis aux opérateurs de terrain de déterminer rapidement s’ils avaient reçu des conseils obsolètes de l’IA ou s’ils avaient négligé un fait essentiel, plus récemment disponible, tel qu’une fermeture d’un pont, et les ont rendus indispensables et transparents plutôt que des décide Pour cela, nous avons construit des états d’échec utiles qui décriraient pourquoi l’IA était incapable d’offrir sa recommandation au lieu de revenir sur un message d’erreur générique.Si, par exemple, il était incapable d’offrir un itinéraire optimal parce qu’il manquait d’informations de connectivité, cela a été explicitement communiqué, et l’utilisateur a été informé de ce qu’ils pourraient faire s’ils n’avaient toujours pas de recommandation d’itinéraire disponible. Définir les relations entre les agents et les humains Mais peut-être l’un des thèmes les plus inédits de l’UX agent est celui de la transmission, ou exactement quand et exactement comment un agent d’IA est censé passer le contrôle d’un système ou d’une interaction à un humain, que cet humain soit un collègue ou qu’il soit lui-même un utilisateur de ce système ou d’une interaction. Notre protocole de transfert de contexte a été conçu de telle sorte que, après chaque interaction de l'IA, un résumé structuré était affiché sur l'écran de l'opérateur avant qu'ils ne puissent saluer l'utilisateur, et ce résumé contenait ce que l'utilisateur demandait, ce que l'IA avait l'intention de dire, et pourquoi l'IA a escalé cet appel. Dans les cas où les opérateurs ont appelé à renvoyer leurs utilisateurs vers le système automatisé, la fonctionnalité de l'interface utilisateur a été utilisée efficacement par les opérateurs pour communiquer des attentes adéquates d'autonomie de l'IA basées sur certaines tâches qui permettraient aux utilisateurs d'être renvoyés vers le système automatisé, au lieu de le faire avec des frustrations attendues. Principes de la conception pragmatique d'Agentic UX En tant que praticien qui conçoit des systèmes dotés d’IA depuis de nombreuses années, j’ai aujourd’hui formulé quelques lignes directrices pragmatiques qui m’aident à concevoir efficacement l’UX d’agent : Tout d’abord, la conception pour le flux de travail, pas pour la technologie. Les utilisateurs ne se soucient pas s’ils sont aidés par l’IA, les règles ou l’intelligence humaine. Ils se soucient seulement de savoir s’ils peuvent accomplir leurs tâches de manière efficace et pratique. Commencez par inverser l’ingénierie à partir du résultat cible, en identifiant les domaines de valeur ajoutée et de complexité ajoutée en raison d’agents dotés d’IA, puis arrêtez-vous et procédez en conséquence. Les utilisateurs doivent être conscients du moment où ils quittent un domaine d'intelligence et entrent dans d'autres domaines, tels que l'intelligence de récupération, l'intelligence de modèle et l'intelligence humaine, et établir des directives visuelles et d'interaction cohérentes en conséquence, de sorte qu'ils ne se demandent pas quel type de réponse ils vont obtenir et quand ils vont l'obtenir. Troisièmement, construisez la vérification dans votre conception de flux de travail en respectant l'expertise de l'utilisateur. les systèmes d'IA devraient idéalement aider à accélérer la prise de décision en apportant des informations pertinentes et en suggérant des cours d'action, mais ceux-ci devraient finalement être faits par des utilisateurs humains qui possèdent un contexte indisponible pour les systèmes d'IA eux-mêmes. En raison de projets qui ont réussi à sécuriser le financement, à accroître l’engagement par des incréments définis et à traiter les chiffres d’utilisateurs dans les milliers, nous n’avons pas réussi parce que nous possédions ou essayions de créer des systèmes d’IA sophistiqués. c’est parce que nous avons fourni à ces utilisateurs, à travers notre interface, la capacité de comprendre ce qui se passait à la fin de ce système d’IA et, à travers cela, leur avons aidé à leur faire confiance suffisamment pour accomplir des tâches de plus en plus complexes au fil du temps, ce qui les a vraiment fait des exemples de succès d’agent UX.